
全在这里了,小白也可以一文读懂的“世界模型”
全在这里了,小白也可以一文读懂的“世界模型”我们先来回顾一下近期相关事件: 6 月 18 日,Midjourney 发布首个 AI 视频生成模型 V1,标志其从静态图像创作向动态多媒体内容生产转型。V1 支持上传或用其他模型生成图像来生成视频片段,但有无法生成音频、时长限制等不足。Midjourney 透露长期目标是将多种技术融合为"世界模型",使用户能在动态生成的虚拟环境中自由探索。
我们先来回顾一下近期相关事件: 6 月 18 日,Midjourney 发布首个 AI 视频生成模型 V1,标志其从静态图像创作向动态多媒体内容生产转型。V1 支持上传或用其他模型生成图像来生成视频片段,但有无法生成音频、时长限制等不足。Midjourney 透露长期目标是将多种技术融合为"世界模型",使用户能在动态生成的虚拟环境中自由探索。
大家好我是歸藏(guizang),今天教大家制作现在最火的 AI 视频品类。
6 月 9 日消息,据外媒TechXplore 报道,由 AI 视频技术公司 Runway 主办的年度 AI 电影节于 6 月 5 日在纽约拉开帷幕,全球十部短片首次登上大银幕亮相。Runway CEO 克里斯托瓦尔・巴伦苏埃拉说:“三年前这听起来还是天方夜谭。现在,全球已有数百万人使用我们当年仅是梦想的工具,创作出数十亿条视频。”
上周,AI 视频生成工具 Medeo[1] 发布,用户输入文字描述,它会自动完成拆分镜头、生成脚本、添加音乐和生成视频等一系列操作,当天在我们的朋友圈里引发了小型「刷屏」。
“不够年轻。”2023 年初,我们第一次和投资人聊到正在筹备创业的王长虎时,这是对方的第一反应。
Chris Pelkey,一位枪击案受害者,对法庭如是说道。但这并不是他本人。他在 2021 年的一次路怒枪击事件中,已经不幸去世。庭审现场上播放的,是以 Pelkey 的形象和声音制作的 AI 视频。
有博主利用一款名为 Higgsfield 的 AI 视频生成工具,一比一复刻了这些镜头,效果不说一模一样,只能说是毫无区别。据博主介绍,只需上传一张歌手的图像,选择 Higgsfield AI 的「Mouth In」(嘴部特写)镜头运动功能,几分钟内就能生成上面这个专业级镜头。
自 OpenAI 发布 Sora 以来,AI 视频生成技术进入快速爆发阶段。凭借扩散模型强大的生成能力,我们已经可以看到接近现实的视频生成效果。但在模型逼真度不断提升的同时,速度瓶颈却成为横亘在大规模应用道路上的最大障碍。
今天凌晨,Runway的新版本Gen-4又试图解决AI视频的一个关键难题,让AI视频更靠近电影级。这一切都只发生在短短的2个多月内,很难想象今年AI会发展到什么程度,或许今年将会是GPT-3.5后真正的AI爆发年。
近一年以来,AI 视频生成技术发展迅猛。自 2024 年初 Sora 问世后,大家惊喜地发现:原来 AI 可以生成如此逼真的视频,一时间各大高校实验室、互联网巨头 AI Lab 以及创业公司纷纷入局视频生成领域。